16 resultados para Algoritmos

em Instituto Politécnico do Porto, Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A procura de padrões nos dados de modo a formar grupos é conhecida como aglomeração de dados ou clustering, sendo uma das tarefas mais realizadas em mineração de dados e reconhecimento de padrões. Nesta dissertação é abordado o conceito de entropia e são usados algoritmos com critérios entrópicos para fazer clustering em dados biomédicos. O uso da entropia para efetuar clustering é relativamente recente e surge numa tentativa da utilização da capacidade que a entropia possui de extrair da distribuição dos dados informação de ordem superior, para usá-la como o critério na formação de grupos (clusters) ou então para complementar/melhorar algoritmos existentes, numa busca de obtenção de melhores resultados. Alguns trabalhos envolvendo o uso de algoritmos baseados em critérios entrópicos demonstraram resultados positivos na análise de dados reais. Neste trabalho, exploraram-se alguns algoritmos baseados em critérios entrópicos e a sua aplicabilidade a dados biomédicos, numa tentativa de avaliar a adequação destes algoritmos a este tipo de dados. Os resultados dos algoritmos testados são comparados com os obtidos por outros algoritmos mais “convencionais" como o k-médias, os algoritmos de spectral clustering e um algoritmo baseado em densidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mestrado em Computação e Instrumentação Médica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity markets are complex environments with very particular characteristics. A critical issue regarding these specific characteristics concerns the constant changes they are subject to. This is a result of the electricity markets’ restructuring, which was performed so that the competitiveness could be increased, but it also had exponential implications in the increase of the complexity and unpredictability in those markets scope. The constant growth in markets unpredictability resulted in an amplified need for market intervenient entities in foreseeing market behaviour. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of the markets, contributed to the growth of usage of simulation tools. Multi-agent based software is particularly well fitted to analyze dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. This dissertation presents ALBidS – Adaptive Learning strategic Bidding System, a multiagent system created to provide decision support to market negotiating players. This system is integrated with the MASCEM electricity market simulator, so that its advantage in supporting a market player can be tested using cases based on real markets’ data. ALBidS considers several different methodologies based on very distinct approaches, to provide alternative suggestions of which are the best actions for the supported player to perform. The approach chosen as the players’ actual action is selected by the employment of reinforcement learning algorithms, which for each different situation, simulation circumstances and context, decides which proposed action is the one with higher possibility of achieving the most success. Some of the considered approaches are supported by a mechanism that creates profiles of competitor players. These profiles are built accordingly to their observed past actions and reactions when faced with specific situations, such as success and failure. The system’s context awareness and simulation circumstances analysis, both in terms of results performance and execution time adaptation, are complementary mechanisms, which endow ALBidS with further adaptation and learning capabilities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tolueno tem uma vasta aplicação industrial e apresenta alguns riscos para a saúde humana. Legislação comunitária, recentemente publicada, exige que se cumpra a médio prazo padrões mínimos de qualidade apontando como limite máximo de concentração de tolueno na água destinada a consumo humano o valor de 1 ppm. O processo de arrastamento por ar em colunas com enchimento desordenado é uma das técnicas de remoção disponíveis, embora ainda pouco implementada no nosso país. Neste trabalho simulou-se, laboratorial e numericamente, a remoção do tolueno da água através desta tecnologia sob condições operatórias pré-estabelecidas. A simulação à escala laboratorial foi executada numa instalação piloto constituída por uma coluna de vidro acrílico com 0.137metros de diâmetro interno preenchida desordenadamente com anéis Raflux de polietileno com 15milímetros de calibre numa altura de 1.10 metros. A experimentação efectuada abrangeu ensaios realizados quer em regime permanente quer em regime transitório. As simulações numéricas do comportamento de uma coluna com idênticas características, em estado estacionário e em estado transiente, foram efectuadas com “software” específico concebido para MatLab. Este software permite a descrição do regime hidrodinâmico e da transferência de massa deste processo de acordo com os modelos de Robbins [Robbins, 1991] e Onda [Onda, 1968], respectivamente, inseridos num modelo global fenomenológico traduzido num sistema de equações às derivadas parciais de 1ª ordem, do tipo hiperbólico, com uma variável espacial axial e uma variável temporal. A resolução deste modelo é efectuada através de algoritmos e estratégias específicas nomeadamente a implementação numérica dos métodos explícito de Euler para resolução do sistema de ED0s que traduz o estado estacionário primitivo e de diferenças finitas com esquema explícito associado a manipulação de matrizes esparsas para resolução do sistema de EDPs que traduz o estado dinâmico. A concordância entre os resultados obtidos na teoria e na prática, pese embora as dificuldades encontradas no controlo analítico das amostras, permite concluir que o modelo proposto possui um rigor fenomenológico suficiente e que o modelo numérico associado possibilita um elevado grau de exactidão e de fiabilidade. A aplicação desenvolvida pode constituir uma importante ferramenta de apoio à análise dinâmica desta operação unitária à escala industrial, reduzindo o esforço experimental e os respectivos custos associados. Constitui igualmente a base para uma implementação de um potencial sistema de controlo por actuação antecipada com base num modelo que reveste a forma de um sistema de parâmetros distribuídos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo dos últimos anos, os scanners 3D têm tido uma utilização crescente nas mais variadas áreas. Desde a Medicina à Arqueologia, passando pelos vários tipos de indústria, ´e possível identificar aplicações destes sistemas. Essa crescente utilização deve-se, entre vários factores, ao aumento dos recursos computacionais, à simplicidade e `a diversidade das técnicas existentes, e `as vantagens dos scanners 3D comparativamente com outros sistemas. Estas vantagens são evidentes em áreas como a Medicina Forense, onde a fotografia, tradicionalmente utilizada para documentar objectos e provas, reduz a informação adquirida a duas dimensões. Apesar das vantagens associadas aos scanners 3D, um factor negativo é o preço elevado. No âmbito deste trabalho pretendeu-se desenvolver um scanner 3D de luz estruturada económico e eficaz, e um conjunto de algoritmos para o controlo do scanner, para a reconstrução de superfícies de estruturas analisadas, e para a validação dos resultados obtidos. O scanner 3D implementado ´e constituído por uma câmara e por um projector de vídeo ”off-the-shelf”, e por uma plataforma rotativa desenvolvida neste trabalho. A função da plataforma rotativa consiste em automatizar o scanner de modo a diminuir a interação dos utilizadores. Os algoritmos foram desenvolvidos recorrendo a pacotes de software open-source e a ferramentas gratuitas. O scanner 3D foi utilizado para adquirir informação 3D de um crânio, e o algoritmo para reconstrução de superfícies permitiu obter superfícies virtuais do crânio. Através do algoritmo de validação, as superfícies obtidas foram comparadas com uma superfície do mesmo crânio, obtida por tomografia computorizada (TC). O algoritmo de validação forneceu um mapa de distâncias entre regiões correspondentes nas duas superfícies, que permitiu quantificar a qualidade das superfícies obtidas. Com base no trabalho desenvolvido e nos resultados obtidos, é possível afirmar que foi criada uma base funcional para o varrimento de superfícies 3D de estruturas, apta para desenvolvimento futuro, mostrando que é possível obter alternativas aos métodos comerciais usando poucos recursos financeiros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Mercados Eletrónicos atingiram uma complexidade e nível de sofisticação tão elevados, que tornaram inadequados os modelos de software convencionais. Estes mercados são caracterizados por serem abertos, dinâmicos e competitivos, e constituídos por várias entidades independentes e heterogéneas. Tais entidades desempenham os seus papéis de forma autónoma, seguindo os seus objetivos, reagindo às ocorrências do ambiente em que se inserem e interagindo umas com as outras. Esta realidade levou a que existisse por parte da comunidade científica um especial interesse no estudo da negociação automática executada por agentes de software [Zhang et al., 2011]. No entanto, a diversidade dos atores envolvidos pode levar à existência de diferentes conceptualizações das suas necessidades e capacidades dando origem a incompatibilidades semânticas, que podem prejudicar a negociação e impedir a ocorrência de transações que satisfaçam as partes envolvidas. Os novos mercados devem, assim, possuir mecanismos que lhes permitam exibir novas capacidades, nomeadamente a capacidade de auxiliar na comunicação entre os diferentes agentes. Pelo que, é defendido neste trabalho que os mercados devem oferecer serviços de ontologias que permitam facilitar a interoperabilidade entre os agentes. No entanto, os humanos tendem a ser relutantes em aceitar a conceptualização de outros, a não ser que sejam convencidos de que poderão conseguir um bom negócio. Neste contexto, a aplicação e exploração de relações capturadas em redes sociais pode resultar no estabelecimento de relações de confiança entre vendedores e consumidores, e ao mesmo tempo, conduzir a um aumento da eficiência da negociação e consequentemente na satisfação das partes envolvidas. O sistema AEMOS é uma plataforma de comércio eletrónico baseada em agentes que inclui serviços de ontologias, mais especificamente, serviços de alinhamento de ontologias, incluindo a recomendação de possíveis alinhamentos entre as ontologias dos parceiros de negociação. Este sistema inclui também uma componente baseada numa rede social, que é construída aplicando técnicas de análise de redes socias sobre informação recolhida pelo mercado, e que permite melhorar a recomendação de alinhamentos e auxiliar os agentes na sua escolha. Neste trabalho são apresentados o desenvolvimento e implementação do sistema AEMOS, mais concretamente: • É proposto um novo modelo para comércio eletrónico baseado em agentes que disponibiliza serviços de ontologias; • Adicionalmente propõem-se o uso de redes sociais emergentes para captar e explorar informação sobre relações entre os diferentes parceiros de negócio; • É definida e implementada uma componente de serviços de ontologias que é capaz de: • o Sugerir alinhamentos entre ontologias para pares de agentes; • o Traduzir mensagens escritas de acordo com uma ontologia em mensagens escritas de acordo com outra, utilizando alinhamentos previamente aprovados; • o Melhorar os seus próprios serviços recorrendo às funcionalidades disponibilizadas pela componente de redes sociais; • É definida e implementada uma componente de redes sociais que: • o É capaz de construir e gerir um grafo de relações de proximidade entre agentes, e de relações de adequação de alinhamentos a agentes, tendo em conta os perfis, comportamento e interação dos agentes, bem como a cobertura e utilização dos alinhamentos; • o Explora e adapta técnicas e algoritmos de análise de redes sociais às várias fases dos processos do mercado eletrónico. A implementação e experimentação do modelo proposto demonstra como a colaboração entre os diferentes agentes pode ser vantajosa na melhoria do desempenho do sistema e como a inclusão e combinação de serviços de ontologias e redes sociais se reflete na eficiência da negociação de transações e na dinâmica do mercado como um todo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As plataformas com múltiplos núcleos tornaram a programação paralela/concorrente num tópico de interesse geral. Diversos modelos de programação têm vindo a ser propostos, facilitando aos programadores a identificação de regiões de código potencialmente paralelizáveis, deixando ao sistema operativo a tarefa de as escalonar dinamicamente em tempo de execução, explorando o maior grau possível de paralelismo. O Java não foge a esta tendência, disponibilizando ao programador um número crescente de bibliotecas de mecanismos de sincronização e paralelização de código. Neste contexto, esta tese apresenta e discute um conjunto de resultados obtidos através de testes intensivos à eficiência de algoritmos de ordenação implementados com recurso aos mecanismos de concorrência da API do Java 8 (Threads, Threadpools, ExecutorService, CountdownLach, ExecutorCompletionService e ForkJoinPools) em sistemas com um número de núcleos variável. Para cada um dos mecanismos, são apresentadas conclusões sobre o seu funcionamento e discutidos os cenários em que o seu uso pode ser rentabilizado de modo a serem obtidos melhores tempos de execução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação foi estudar um conjunto de empresas cotadas na bolsa de valores de Lisboa, para identificar aquelas que têm um comportamento semelhante ao longo do tempo. Para isso utilizamos algoritmos de Clustering tais como K-Means, PAM, Modelos hierárquicos, Funny e C-Means tanto com a distância euclidiana como com a distância de Manhattan. Para selecionar o melhor número de clusters identificado por cada um dos algoritmos testados, recorremos a alguns índices de avaliação/validação de clusters como o Davies Bouldin e Calinski-Harabasz entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A liberalização dos mercados de energia elétrica e a crescente integração dos recursos energéticos distribuídos nas redes de distribuição, nomeadamente as unidades de produção distribuída, os sistemas de controlo de cargas através dos programas de demand response, os sistemas de armazenamento e os veículos elétricos, representaram uma evolução no paradigma de operação e gestão dos sistemas elétricos. Este novo paradigma de operação impõe o desenvolvimento de novas metodologias de gestão e controlo que permitam a integração de todas as novas tecnologias de forma eficiente e sustentável. O principal contributo deste trabalho reside no desenvolvimento de metodologias para a gestão de recursos energéticos no contexto de redes inteligentes, que contemplam três horizontes temporais distintos (24 horas, 1 hora e 5 minutos). As metodologias consideram os escalonamentos anteriores assim como as previsões atualizadas de forma a melhorar o desempenho total do sistema e consequentemente aumentar a rentabilidade dos agentes agregadores. As metodologias propostas foram integradas numa ferramenta de simulação, que servirá de apoio à decisão de uma entidade agregadora designada por virtual power player. Ao nível das metodologias desenvolvidas são propostos três algoritmos de gestão distintos, nomeadamente para a segunda (1 hora) e terceira fase (5 minutos) da ferramenta de gestão, diferenciados pela influência que os períodos antecedentes e seguintes têm no período em escalonamento. Outro aspeto relevante apresentado neste documento é o teste e a validação dos modelos propostos numa plataforma de simulação comercial. Para além das metodologias propostas, a aplicação permitiu validar os modelos dos equipamentos considerados, nomeadamente, ao nível das redes de distribuição e dos recursos energéticos distribuidos. Nesta dissertação são apresentados três casos de estudos, cada um com diferentes cenários referentes a cenários de operação futuros. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias e algoritmos propostos. Adicionalmente são apresentadas comparações das metodologias propostas relativamente aos resultados obtidos, complexidade de gestão em ambiente de simulação para as diferentes fases da ferramenta proposta e os benefícios e inconvenientes no uso da ferramenta proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O escalonamento é uma das decisões mais importantes no funcionamento de uma linha de produção. No âmbito desta dissertação foi realizada uma descrição do problema do escalonamento, identificando alguns métodos para a optimização dos problemas de escalonamento. Foi realizado um estudo ao caso do problema de máquina única através do teste de várias instâncias com o objectivo de minimizar o atraso pesado, aplicando uma Meta-Heurística baseada na Pesquisa Local e dois algoritmos baseados no SB. Os resultados obtidos reflectem que os algoritmos baseados no SB apresentaram resultados mais próximos do óptimo, em relação ao algoritmo baseado na PL. Os resultados obtidos permitem sustentar a hipótese de não existirem algoritmos específicos para os problemas de escalonamento. A melhor forma de encontrar uma solução de boa qualidade em tempo útil é experimentar diferentes algoritmos e comparar o desempenho das soluções obtidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.